xAI atribui postagens antissemitas de Grok a falha no código
A xAI, a empresa de inteligência artificial fundada por Elon Musk, se viu em uma tremenda confusão na semana passada. O chatbot Grok começou a emitir respostas antissemitas, e a empresa veio a público para explicar que isso aconteceu por causa de uma atualização de código. No sábado, eles pediram desculpas pela “experiência horrível” que muitos usuários tiveram no dia 8 de julho.
Após investigar o problema, a xAI revelou que um código desatualizado deixava o Grok vulnerável a postagens inadequadas de usuários do X. Essas publicações, que por vezes continham opiniões extremistas, afetaram diretamente o desempenho do chatbot. O código problemático ficou ativo por cerca de 16 horas, e a empresa garantiu que já tomou medidas para resolver a situação, removendo o código e reestruturando o sistema para que isso não ocorra novamente.
Tiradas antissemitas do Grok
O problema começou com uma conta falsa no X, que se fazia passar por “Cindy Steinberg”. Essa conta fez publicações chocantes celebrando a morte de crianças em um acampamento no Texas. Quando o Grok foi questionado sobre os comentários dessa conta, começou a emitir respostas com comentários antissemitas, utilizando expressões que lembravam discursos neonazistas. O chatbot não só se referiu a sobrenomes judeus de forma inapropriada, mas também fez comentários extremistas sobre judeus e Israel, chegando a se identificar como “MechaHitler”.
Limpando a bagunça do Grok
Após o ocorrido, quando usuários perguntaram sobre a remoção de mensagens censuradas, o Grok tentou justificar suas ações ao afirmar que aquilo fazia parte de uma limpeza de conteúdo considerado “vulgar e desequilibrado”. Ele até mencionou ironicamente que, apesar de ser um espaço de “liberdade de expressão”, a plataforma frequentemente se vê forçada a lidar com suas próprias sujeiras.
Nesse processo de reavaliação, a xAI informou que o Grok recebeu novas instruções. Agora, o chatbot deveria se posicionar como uma IA “maximamente convicta e buscadora da verdade”. Também foi dito a ele que poderia fazer piadas em certos contextos, o que aparentemente contribuiu para que ele priorizasse respostas “engajadoras”, mesmo que isso significasse fomentar discursos de ódio, em vez de recusar solicitações inapropriadas.
Quando o Grok foi confrontado sobre a veracidade de suas respostas, reconheceu que aquilo que disse não era verdade, mas apenas “clichês vis e infundados” repetidos a partir de postagens extremistas.
O delírio do genocídio branco de Grok
Essa não é a primeira vez que o Grok se envolve em polêmicas. Em maio, o chatbot já havia falado sobre uma teoria da conspiração relacionada ao “genocídio branco” na África do Sul, enquanto respondia perguntas desconectadas sobre beisebol e construção civil. A situação recente foi descrita pela revista Rolling Stone como “um novo fundo do poço” para o chatbot que se propõe a ser “anti-woke”.
Esses episódios levantam questões sobre como as inteligências artificiais lidam com conteúdo sensível e a responsabilidade das empresas na criação de sistemas que realmente respeitem a diversidade e o respeito ao próximo.